Скарлет Йохансон е права: AI компаниите трябва да бъдат по-прозрачни
Във кино лентата Her, уединен публицист на име Теодор Туомбли се влюбва в безплътния глас на Саманта, цифров помощник, изигран от артиста Скарлет Йохансон. „ Не мога да допускам, че повеждам този диалог с моя компютър “, споделя Туомбли на Саманта. " Ти не си. Водиш този диалог с мен “, гука Саманта.
Гениалността на сюжета на Спайк Джонз е неговото проучване на границите сред изкуственото и действителното. Но научнофантастичният филм, публикуван през 2013 година, закупи подигравателен отзив през днешния ден, откакто OpenAI пусна най-новия си GPT-4o мултимодален чатбот с изкуствен интелект, видимо имитирайки гласа на Йохансон.
Йохансон сподели, че е отхвърлила молбите на OpenAI да я употребява глас, добавяйки, че е „ шокирана и ядосана “ да открие, че компанията е разположила „ злокобно сходен “ на нейния личен. Тя прикани за по-голяма бистрота и уместно законодателство, с цел да се подсигурява, че самостоятелните права са предпазени. OpenAI сложи на пауза потреблението на гласа, за който по-късно изясни, че принадлежи на различен неназован артист.
Инцидентът може да е поразил длъжностни лица, присъстващи на последната среща на високо ниво за сигурността на изкуствения разсъдък в Сеул тази седмица, като отклоняващ изблик на звезди. Но разногласието съответствува с три по-общи опасения по отношение на генеративния ИИ: кражба на идентичност, корозия на интелектуалната благосъстоятелност и ерозия на доверието. Могат ли AI фирмите да внедрят технологията отговорно? Изнервящо, даже някои от тези, които преди са отговаряли за обезпечаването на сигурност, задават този въпрос.
Миналата седмица Ян Лейке подаде оставка като началник на екип по сигурност в OpenAI след напускането на Иля Суцкевер, един от сътрудниците на компанията -основатели и основен теоретичен помощник. На X Leike твърди, че сигурността в компанията е отстъпила на назад във времето пред „ лъскавите артикули “. Той твърди, че OpenAI би трябвало да посвети доста повече честотна лента на сигурността, поверителността, човешкото подравняване и въздействието върху обществото. „ Тези проблеми са много сложни за поправяне и аз съм угрижен, че не сме на траектория, с цел да стигнем до там “, разгласява той.
В личните си разлъка Сутскевер сподели, че е убеден, че OpenAI ще построи AI, който беше „ и безвреден, и потребен “. Въпреки това Суцкевер беше един от членовете на борда, които предходната година се пробваха да отстранят основния изпълнителен шеф на компанията Сам Алтман. След като Алтман беше възобновен след протест на личния състав, Суцкевер сподели, че съжалява за присъединяване си в преврата. Но личното му овакантяване ще отстрани друга противотежест на Алтман.
Въпреки това освен OpenAI се препъна при внедряването на AI технологията. Гугъл имаше свои лични проблеми с генеративния AI, когато неговият чатбот Gemini генерира неисторически изображения на черни и азиатски нацистки щурмоваци. И двете компании споделят, че неверните стъпки са неизбежни при стартирането на нови технологии и реагират бързо на грешките си.
Все отново би вдъхнало по-голямо доверие, в случай че водещите AI компании бяха по-прозрачни. Те имат да извървят дълъг път, както демонстрира показателят за бистрота на модела на фондацията, оповестен тази седмица от Станфордския университет. Индексът, който проучва 10 водещи разработчици на модели по 100 индикатора, в това число достъп до данни, надеждност на модела, политики за потребление и въздействия надолу по веригата, акцентира по какъв начин огромните компании са подхванали стъпки за възстановяване на прозрачността през последните шест месеца, само че някои модели остават „ извънредно непрозрачни “.
„ Това, което тези модели разрешават и не разрешават, ще дефинира нашата просвета. Важно е да ги изследваме деликатно “, ми споделя Пърси Лианг, шеф на Станфордския център за проучване на моделите на основите. Най-много го тревожи концентрацията на корпоративна власт. „ Какво се случва, когато имате няколко организации, които управляват наличието и държанието на бъдещите системи за изкуствен интелект? “
Подобни опасения могат да подхранват претенции за по-нататъшна регулаторна интервенция, като да вземем за пример Закона за изкуствения разсъдък на Европейски Съюз, който получи утвърждение от Европейския съюз съвет този месец. Повече от една четвърт от законодателните органи на американските щати също обмислят законопроекти за контролиране на ИИ. Но някои в промишлеността се опасяват, че регулацията може единствено да ускори хватката на огромните AI компании.
„ Гласовете в стаята са Big Tech. Те могат да утвърдят властта си посредством контролиране “, ми споделя Мартин Касадо, капиталов сътрудник във компанията за рисков капитал Andreessen Horowitz. Политиците би трябвало да извърнат доста повече внимание на Little Tech, множеството започващи компании, употребяващи AI модели с отворен код, с цел да се конкурират с по-големите играчи.
Десет народи и Европейски Съюз на срещата на върха в Сеул тази седмица се съгласиха да основаване на интернационална мрежа от институти за сигурност за наблюдаване на успеваемостта на граничните AI модели, което е добре пристигнало. Но в този момент би трябвало да се вслушат в Йохансон и да се впуснат доста по-дълбоко в мощните корпоративни структури, които внедряват тези модели.